inductive bias
先验知识以及假设
- 算法对学习问题做的假设
归纳偏置
-
归纳和演绎 induction deduction
-
从一些例子中寻找共性、泛化,形成一个比较通过的规则的过程
-
偏置代表对模型的偏好
-
用规则约束模型,从而起到模型选择
-
将无限可能的目标函数约束在一个有限的类别假设中
-
近似损失 + 估计损失(更宽松的假设会增大这个损失)
-
常见的例子
-
[[奥卡姆剃刀]] :-> 希望学习到的模型复杂度更低
-
[[KNN]] :-> 特征空间中相邻的样本倾向于属于同一类
-
SVM 好的分类器 应该 最大化类别边界距离
-
[[RNN]] :-> 每一个时刻的计算依赖历史计算结果
-
sequentiality
-
time invariance
- 序列顺序上的 timesteps 有联系
-
时间变换不变性
- 权重共享
-
-
双向 RNN
- RNN 假设当前输入和之前的输入有关系,双 RNN 假设当前输入和之前、之后的输入都有关系
-
[[DNN]] :-> 信息应该逐级加工,层层抽象
-
[[CNN]] :-> 信息具有空间局部性,滑动卷积共享权重方式降低参数空间
-
locality
-
spatial invariance
- 空间相近的 grid elements 有联系而远的没有
-
空间变换不变性 translation invariant
- kernel 权重共享
-
-
[[GNN]] 连接不变性
-
[[Word2Vec]] :-> A word’s meaning is given by the words that frequently appear close-by.
-
结构相似性
-
例子:猫和狗在语料中没有同时出现,但是他们的上下文完全一致,所以最终 embedding 相似。
-
我有一只猫。
-
我有一只狗。
-
-